divergence (Econ) Phân rã; phân kỳ; Sai biệt. divergence divergence...
Câu ví dụ
In probability theory and statistics, the Jensen–Shannon divergence is a method of measuring the similarity between two probability distributions. Trong lý thuyết xác suất và thống kê, khoảng cách Jensen-Shannon là một phương pháp phổ biến để đo sự tương đồng giữa hai phân bố xác suất.
It follows from the above result that the Jensen–Shannon divergence is bounded by 0 and 1 because mutual information is non-negative and bounded by H ( Z ) = 1 {\displaystyle H(Z)=1} . Từ kết quả trên có thể suy ngay ra khoảng cách Jensen-Shannon nằm trong khoảng từ 0 đến 1 vì thông tin tương hỗ là không âm và bị chặn bởi H(Z)=1{displaystyle H(Z)=1} .
It follows from the above result that the Jensen–Shannon divergence is bounded by 0 and 1 because mutual information is non-negative and bounded by H ( Z ) = 1 {\displaystyle H(Z)=1} . Từ kết quả trên có thể suy ngay ra khoảng cách Jensen-Shannon nằm trong khoảng từ 0 đến 1 vì thông tin tương hỗ là không âm và bị chặn bởi H ( Z ) = 1 {\displaystyle H(Z)=1} .